【kafka cluster机器】:
机器名称 用户名称
sht-sgmhadoopdn-01/02/03 root
【安装目录】: /root/learnproject/app
1.将scala文件夹同步到集群其他机器(scala 2.11版本,可单独下载解压)
1 | [root@sht-sgmhadoopnn-01 app]# scp -r scala root@sht-sgmhadoopdn-01:/root/learnproject/app/ |
2.下载基于Scala 2.11的kafka版本为0.10.1.0
1 | [root@sht-sgmhadoopdn-01 app]# pwd |
3.创建logs目录和修改server.properties(前提zookeeper cluster部署好,见“03【在线日志分析】之hadoop-2.7.3编译和搭建集群环境(HDFS HA,Yarn HA)” )
1 | [root@sht-sgmhadoopdn-01 app]# cd kafka |
4.同步到02/03服务器,更改broker.id 及host.name
1 | [root@sht-sgmhadoopdn-01 app]# scp -r kafka sht-sgmhadoopdn-03:/root/learnproject/app/ |
5.环境变量
1 | [root@sht-sgmhadoopdn-01 kafka]# vi /etc/profile |
6.启动/停止
1 | [root@sht-sgmhadoopdn-01 kafka]# nohup kafka-server-start.sh config/server.properties & |
7.topic相关的操作
1 | a.创建topic,如能成功创建topic则表示集群安装完成,也可以用jps命令查看kafka进程是否存在。 |
8.模拟实验1
1 | 在一个终端,启动Producer,并向我们上面创建的名称为my-replicated-topic5的Topic中生产消息,执行如下脚本: |